Вероятностные характеристики сигналов. Вероятностные характеристики случайных сигналов Анализ распределения вероятностей
Математический аппарат анализа стационарных случайных сигналов основан на гипотезе эргодичности. Согласно гипотезе эргодичности статистические характеристики большого числа произвольно выбранных реализаций стационарного случайного сигнала овпадают со статистическими характеристиками одной реализации достаточно большой длины. Это означает, что усреднение по множеству реализаций стационарного случайного сигнала можно заменить усреднением по времени одной, достаточно длинной реализации. Тем самым существенно облегчается экспериментальное определение статистических характеристик стационарных сигналов и упрощается расчет систем при случайных воздействиях.
Определим основные статистические характеристики стационарного случайного сигнала, заданного в виде одной реализации в интервале (рис. 11.1.1, а).
Числовые характеристики. Числовыми характеристиками случайного сигнала являются среднее значение (математическое ожидание) и дисперсия.
Среднее значение сигнала на конечном интервале времени равно
Если интервал усреднения - длину реализации Т устремить к бесконечности, то среднее по времени значение согласно гипотезе эргодичности будет равно математическому ожиданию сигнала:
Рис. 11.1.1. Реализации стационарных случайных сигналов
В дальнейшем для краткости знак предела перед интегралами по времени будем опускать. При этом либо вместо знака = будем использовать знак , либо под вычисляемыми статистическими характеристиками будем подразумевать их оценки.
В практических расчетах, когда конечная реализация задана в виде N дискретных значений, отделенных друг от друга равными промежутками времени (см. рис. 8.1), среднее значение вычисляют по приближенной формуле
Стационарный случайный сигнал можно рассматривать как сумму постоянной составляющей, равной среднему значению ,и переменной составляющей , соответствующей отклонениям случайного сигнала от среднего:
Переменную составляющую называют центрированным случайным сигналом.
Очевидно, что среднее значение центрированного сигнала всегда равно нулю.
Так как спектр сигнала х (t) совпадает со спектром соответствующего центрированного сигнала , то во многих (но не всех!) задачах расчета автоматических систем можно вместо сигнала x(t) рассматривать сигнал .
Дисперсия D x стационарного случайного сигнала равна среднему значению квадрата отклонений сигнала от математического ожидания , т. е.
Дисперсия D x является мерой разброса мгновенных значений сигнала около математического ожидания. Чем больше пульсация переменной составляющей сигнала относительно его постоянной составляющей, тем больше дисперсия сигнала. Дисперсия имеет размерность величины х в квадрате.
Дисперсию можно рассматривать так же, как среднее значение мощности переменной составляющей сигнала.
Часто в качестве меры разброса случайного сигнала используют среднеквадратичное отклонение .
Для расчета автоматических систем имеет важное значение следующее свойство:
дисперсия суммы или разности независимых случайных сигналов равна сумме (!) дисперсий этих сигналов, т. е.
Математическое ожидание и дисперсия являются важными числовыми параметрами случайного сигнала, но они характеризуют его не полностью: по ним нельзя судить о скорости изменения сигнала во времени. Так, например, для случайных сигналов х 1 (t) и х 2 (t) (рис. 11.1.1, б, в) математические ожидания и дисперсии одинаковые, но несмотря на это, сигналы явно отличаются друг от друга: сигнал х 1 (t) изменяется медленнее, чем сигнал х 2 (t).
Интенсивность изменения случайного сигнала во времени можно охарактеризовать одной из двух функций - корреляционной или функцией спектральной плотности.
Корреляционная функция. Корреляционной функцией случайного сигнала х(t) называется математическое ожидание произведений мгновенных значений центрированного сигнала , разделенных промежутком времени , т. е.
где т - варьируемый сдвиг между мгновенными значениями сигнала (см. рис. 11.1.1, а). Сдвиг варьируют от нуля до некоторого значения. Каждому фиксированному значению соответствует определенное числовое значение функции .
Корреляционная функция (называемая также автокорреляционной) характеризует степень корреляции (тесноту связи) между предыдущими и последующими значениями сигнала.
При увеличении сдвига связь между значениями и ослабевает, и ординаты корреляционной функции (рис. 11.1.2, а) уменьшаются.
Это основное свойство корреляционной функции можно объяснить следующим образом. При малых сдвигах под знак интеграла (11.1.12) попадают произведения сомножителей, имеющих, как правило, одинаковые знаки, и поэтому большинство произведений будут положительными, а значение интеграла большим. По мере увеличения сдвига под знак интеграла будет попадать все больше сомножителей, имеющих противоположные знаки, и значения интеграла будут уменьшаться. При очень больших сдвигах
Рис. 11.1.2. Корреляционная функция (а) и спектральная плотность (б) случайного сигнала
сомножители и практически независимы, и число положительных произведений равно числу отрицательных произведений, а значение интеграла стремится к нулю. Из приведенных рассуждений следует также, что корреляционная функция убывает тем быстрее, чем быстрее изменяется случайный сигнал во времени.
Из определения корреляционной функции следует, что она является четной функцией аргумента , т. е.
поэтому обычно рассматривают только положительные значения .
Начальное значение корреляционной функции центрированного сигнала равно дисперсии сигнала, т. е.
Равенство (8.14) получается из выражения (11.1.12) при подстановке .
Корреляционную функцию конкретного сигнала определяют по экспериментально полученной реализации этого сигнала. Если реализация сигнала получена в виде непрерывной диаграммной записи длиной Т, то корреляционную функцию определяют при помощи специального вычислительного устройства - коррелятора (рис. 11.1.3, а), реализующего формулу (11.1.12). Коррелятор состоит из блока задержки БЗ, блока умножения БУ и интегратора И. Для определения нескольких ординат блок запаздывания поочередно настраивают на различные сдвиги
Если же реализация представляет собой совокупность дискретных значений сигнала, полученных через равные промежутки (см рис. 11.1.1, а), то интеграл (11.1.12) приближенно заменяют суммой
которую вычисляют при помощи ЦВМ.
Рис 11.1.3 Алгоритмические схемы вычисления ординат корреляционной функции (а) и спектральной плотности (б)
Для получения достаточно достоверной информации о свойствах случайного сигнала длину реализации Т и интервал дискретности необходимо выбирать из условий:
где T н t ч и Т в ч - периоды соответственно самой низкочастотной и самой высокочастотной составляющих сигнала.
Спектральная плотность. Определим теперь спектральную характеристику стационарного случайного сигнала . Так как функция не является периодической, она не может быть разложена в ряд Фурье (2.23). С другой стороны, функция из-за неограниченной длительности неинтегрируема, и поэтому не может быть представлена интегралом Фурье (2.28). Однако, если рассматривать случайный сигнал на конечном интервале Т, то функция становится интегрируемой, и для нее существует прямое преобразование Фурье:
Изображение по Фурье непериодического сигнала х(t) характеризует распределение относительных амплитуд сигнала вдоль оси частот и называется спектральной плотностью амплитуд, а функция характеризует распределение энергии сигнала среди его гармоник (см. 2.2). Очевидно, что если разделить функцию на длительность Т случайного сигнала, то она будет определять распределение мощности конечного сигнала среди его гармоник. Если теперь устремить Т к бесконечности, то функция будет стремиться к пределу
который называется спектральной плотностью мощности случайного сигнала. В дальнейшем функцию будем называть сокращенно - спектральная плотность.
Наряду с математическим определением (11.1.18) спектральной плотности можно дать более простое - физическое толкование: спектральная плотность случайного сигнала х (t) характеризует распределение квадратов относительных амплитуд гармоник сигнала вдоль оси .
Согласно определению (11.1.18) спектральная плотность - четная функция частоты. При функция обычно стремится к нулю (рис. 11.1.2, б), причем, чем быстрее изменяется сигнал во времени, тем шире график .
Отдельные пики на графике спектральной плотности свидетельствуют о наличии периодических составляющих случайного сигнала.
Найдем связь спектральной плотности с дисперсией сигнала. Запишем равенство Парсеваля (2.36) для конечной реализации и разделим его левую и правую части на Т. Тогда получим
При левая часть равенства (8.19) стремится к дисперсии сигнала D x [см. (11.1.10)], а подынтегральное выражение в правой части - к спектральной плотности , т. е. вместо (8.19) получим одну из главных формул статистической динамики:
Поскольку левая часть равенства (11.1.20) представляет собой полную дисперсию сигнала, то каждую элементарную составляющую под знаком интеграла можно рассматривать как дисперсию или квадрат амплитуды гармоники с частотой .
Формула (11.1.20) имеет большое практическое значение, так как позволяет по известной спектральной плотности сигнала вычислять его дисперсию, которая во многих задачах расчета автоматических систем служит важной количественной характеристикой качества.
Спектральную плотность можно найти по экспериментальной реализации сигнала при помощи спектрального анализатора (рис. 11.1.3, б), состоящего из полосового фильтра ПФ с узкой полосой пропускания , квадратора Кв и интегратора И. Для определения нескольких ординат полосовой фильтр поочередно настраивают на различные частоты пропускания.
Взаимосвязь между функциональными характеристиками случайного сигнала. Н. Винером и А. Я. Хинчиным было впервые показано, что функциональные характеристики и стационарного случайного сигнала связаны друг с другом преобразованием Фурье: спектральная плотность является изображением корреляционной функции т. е.
а корреляционная функция, соответственно, является оригиналом этого изображения,т.е.
Если разложить множители с помощью формулы Эйлера (11.1.21) и учесть, что , и - четные функции, а - нечетная функция, то выражения (11.1.21) и (11.1.22) можно преобразовать к следующему виду, более удобному для практических расчетов:
Подставляя в выражение (11.1.24) значение получим формулу (11.1.20) для вычисления дисперсии.
Соотношения, связывающие корреляционную функцию и спектральную плотность, обладают всеми присущими преобразованию Фурье свойствами. В частности: чем шире график функции тем уже график функции , и наоборот, чем быстрее убывает функция , тем медленнее уменьшается функция (рис. 11.1.4). Кривые 1 на обоих рисунках соответствуют медленно меняющемуся случайному сигналу (см. рис. 11.1.1, б), в спектре которого преобладают низкочастотные гармоники. Кривые 2 соответствуют быстро меняющемуся сигналу х 2 (t) (см. рис. 11.1.1, б), в спектре которого преобладают высокочастотные гармоники.
Если случайный сигнал изменяется во времени очень резко, и между его предыдущими и последующими значениями корреляция полностью отсутствует, то функция имеет вид дельта-функции (см. рис. 11.1.4, а, прямая 3). График спектральной плотности в этом случае представляет собой горизонтальную прямую в диапазоне частот от 0 до (см. рис. 11.1.4, б, прямая 3). Это указывает на то, что амплитуды гармоник во всем диапазоне частот одинаковы. Такой сигнал называется идеальным белым шумом (по аналогии с белым светом, у которого, как известно, интенсивность всех компонент одинакова).
Рис 11.1.4 Взаимосвязь между корреляционной функцией (а) и спектральной плотностью (б)
Отметим, что понятие «белый шум» является математической абстракцией. Физические сигналы в виде белого шума неосуществимы, так как бесконечно широкому спектру согласно формуле (11.1.20) соответствует бесконечно большая дисперсия, а следовательно, и бесконечно большая мощность, что невозможно. Тем не менее, реальные сигналы с конечным спектром часто можно приближенно рассматривать как белый шум. Это упрощение правомерно в тех случаях, когда спектр сигнала значительно шире полосы пропускания системы, на которую действует сигнал.
Для всех случайных сигналов, действующих в реальных физических системах, существует корреляция между предыдущими и последующими значениями. Это означает, что корреляционные функции реальных сигналов отличаются от дельта-функции и имеют конечную, не равную нулю длительность спада. Соответственно и спектральные плотности реальных сигналов всегда имеют конечную ширину.
Характеристики связи двух случайных сигналов. Для описания вероятностной связи, проявляющейся между двумя случайными сигналами, используют взаимную корреляционную функцию и взаимную спектральную плотность.
Взаимная корреляционная функция стационарных случайных сигналов х 1 (t) и х 2 (t) определяется выражением
Функция характеризует степень связи (корреляции) между мгновенными значениями сигналов х 1 (t) и х 2 (t), отстоящими друг от друга на величину . Если сигналы статистически не связаны (не коррелированы) между собой, то при всех значениях функция .
Для взаимной корреляционной функции справедливо следующее соотношение, вытекающее из определения (8.25):
Корреляционная функция суммы (разности) двух коррелированных между собой сигналов определяется выражением
Взаимная спектральная плотность случайных сигналов х 1 (t) и х 2 (t) определяется как изображение по Фурье взаимной корреляционной функции:
Из определения (11.1.28) и свойства (11.1.26) следует, что
Спектральная плотность суммы (разности) случайных сигналов х 1 (t) и х 2 (t)
Если сигналы х 1 (t) и х 2 (t) некоррелирвоаны между собой, то выражения (11.1.27) и (11.1.29) упрощаются:
Соотношения (11.1.31), а также (11.1.11), означают, что статистические характеристики и D x совокупности нескольких некоррелированных друг с другом случайных сигналов всегда равны сумме соответствующих характеристик этих сигналов (независимо от того, с каким знаком сигналы суммируются в эту совокупность).
Типовые случайные воздействия. Реальные случайные воздействия, влияющие на промышленные объекты управления, весьма разнообразны по своим свойствам. Но прибегая при математическом описании воздействий к некоторой идеализации, можно выделить ограниченное число типичных или типовых случайных воздействий. Корреляционные функции и спектральные плотности типовых воздействий представляют собой достаточно простые функции аргументов и . Параметры этих функций, как правило,можно легко определить по экспериментальным реализациям сигналов.
Простейшим типовым воздействием является белый шум с ограниченной шириной спектра. Спектральная плотность этого воздействия (рис. 11.1.5, а) описывается функцией
Где - интенсивность белого шума. Дисперсия сигнала согласно (11.1.20)
Корреляционная функция согласно (11.1.24) в данном случае имеет вид
Учитывая (11.1.33), функцию (11.1.34) можно записать в следующем виде:
График функции (11.1.35) показан на рис. 11.1.5, б.
Рис. 11.1.5. Спектральные плотности и корреляционные функции типовых случайных сигналов
Наиболее часто в практических расчетах встречаются сигналы с экспоненциальной корреляционной функцией (рис. 11.1.5, г)
Применяя к корреляционной функции (11.1.36) преобразование (11.1.23), находим спектральную плотность (рис. 11.1.5, в)
Чем больше параметр а х, тем быстрее уменьшается корреляционная функция и тем шире график спектральной плотности. Ординаты функции при увеличении а х уменьшаются. При рассматриваемый сигнал приближается к идеальному белому шуму.
При ориентировочных расчетах параметр а х можно определить непосредственно по реализации сигнала - среднему числу пересечений центрированным сигналом оси времени: .
Часто случайный сигнал содержит скрытую периодическую составляющую. Такой сигнал имеет экспоненциально-косинусную корреляционную функцию (рис. 11.1.5, е)
Параметр этой функции соответствует среднему значению «периода» скрытой составляющей, а параметр а х характеризует относительную интенсивность остальных случайных составляющих, которые наложены на периодическую составляющую. Если показатель , то относительный уровень этих составляющих невелик, и смешанный сигнал близок к гармоническому. Если же показатель , то уровень случайных составляющих соизмерим с «амплитудой» периодической составляющей. При корреляционная функция (8.38) практически совпадает (с точностью 5 %) с экспонентой (11.1.36).
Математическая модель процесса передачи измерительной информации представляет собой модель случайного процесса с плотностью вероятности . Полезные сигналы и сигналы помех, действующие на информационно- измерительную системы, являются случайными процессами, которые могут быть характеризованы статистическими средними значениями и характеристиками.
Случайный процесс является более сложным случайным явлением, чем случайная величина, но его определение можно дать через случайную величину. Функция (рис.4) называется случайным процессом, если ее мгновенные значения являются случайными величинами . Также как и случайная величина не может характеризоваться отдельным значением, так и случайный процесс нельзя определить какой-то одной, пусть и сложной функцией. Случайный процесс представляет собой множество реализаций (функций времени) . Реализация x i (t) – фрагмент случайного процесса X(t) , зафиксированный в результате i -го эксперимента ограниченной длительности T , следовательно, под реализацией понимают один из возможных исходов случайного процесса. Случайная величина , соответствующая i -й реализации и j -му моменту времени, является мгновенным (выборочным) значением - частным случаем случайного процесса, а вероятностные характеристики случайного процесса основаны на характеристиках случайных величин, входящих в этот процесс. Совокупность мгновенных значений, соответствующих значениям различных реализаций в один и тот же момент времени t j , называется j -ой последовательностью процесса X(t ). При решении прикладных задач чаще обращаются к реализациям, чем к последовательностям.
Экспериментально ансамбль реализаций случайного процесса может быть получен в результате одновременной регистрации выходных параметров x i (t) на выходах однотипных объектов, например, измерительных приборов, в течение фиксированного интервала времени.
Если аргумент t изменяется непрерывно, зависимость X(t ) представляет непрерывный случайный процесс (например, изменение погрешности измерительного прибора в течение длительного времени его работы) , если аргумент t является дискретной величиной – случайную последовательность или временной ряд (массив результатов измерения погрешности в известные моменты времени). Процесс X(t ) , принимающий счетное ограниченное количество значений, называется дискретным случайным процессом (например, последовательность состояний работы оборудования информационно- измерительных систем или информационно- вычислительных комплексов) .
Определяя случайный процесс случайными величинами, находят вероятностные характеристики процессов, исходя из вероятностных характеристик этих величин.
Рис.4. Графическое изображение случайного процесса
Наиболее полно описывают случайный процесс интегральная функция распределения вероятности
и дифференциальная функция распределения вероятности
В функциях распределения вероятности случайных процессов, в отличие от многомерных функций распределения вероятности случайных величин к аргументам x i добавляются переменные t j , показывающие, в какие моменты времени сняты отсчеты.
Для приближенного описания случайных процессов, также как и для описания случайных величин используют такие числовые характеристики, как математическое ожидание, дисперсия и т.д. Причем, эти числовые характеристики также являются функциями времени.
Наиболее часто используемыми вероятностными характеристиками являются.
1.Математическое ожидание ,
оценкой математического ожидания случайной функции является ее среднее значение .
2. Дисперсия – неслучайная функция
где - центрированный случайный процесс; значения дисперсии при каждом t j равны дисперсии случайной величины x i (t j) .
Дисперсия случайной функции может быть найдена через дифференциальную функцию распределения вероятности случайной функции
Оценкой дисперсии является ее эмпирическое значение
Случайные процессы с одинаковыми математическими ожиданиями и дисперсиями могут существенно отличаться формой (рис.4).
3. Автокорреляционная функция характеризует статистическую связь между мгновенными значениями случайного процесса в различные моменты времени. Чем меньше значение автокорреляционной функции, тем в меньшей степени зависит значение измерительного сигнала в момент t 1 от значения в момент t 2. . Определяется одним из следующих соотношений
где t 1 ,t 2 –фиксированные моменты времени, в которых определены сечения случайной функции.
Так как при t 1 =t 2 , для одних и тех же сечений корреляционная функция обращается в дисперсию случайной функции.
Для каждой пары моментов времени автокорреляционная функция равна корреляционному моменту, статистическая оценка которого
В формулах, определяющих эмпирические оценки дисперсии и корреляционной функции, количество реализаций n уменьшается на единицу для получения несмещенной оценки;
4. Взаимно корреляционная функция определяет статистическую связь двух сигналов X(t ) и Y(t +τ)
Изучение свойств случайных процессов с использованием корреляционных функций называют корреляционной теорией случайных процессов.
5. Спектральная плотность - неслучайная функция, устанавливающая плотность распределения его дисперсии по частоте ω, равна преобразованию Фурье соответствующей корреляционной функции
Корреляционная функция может быть выражена через спектральную плотность соотношением типа обратного преобразования Фурье .
Соотношения, позволяющие проводить преобразования спектральной плотности в корреляционную функцию и наоборот, носят название теоремы Хинчина- Винера.
Случайные сигналы
Тест № 2
Вопросы для самопроверки
1. Объясните причину возникновения искажений в передаче сообщений, наблюдаемых при перемодуляции.
2. Чем определяется распределение мощности в спектре АМ сигнала?
3. Почему непосредственная демодуляция ОБП сигнала приводит к искажению передаваемого сообщения?
4. Укажите сходства и различия между сигналами с частотной и фазовой модуляцией.
5. Как связаны между собой частота модуляции, ее индекс и девиация частоты?
6. Объясните различие между спектрами АМ и ЧМ сигналов.
7. Укажите особенности модуляции цифровых сигналов.
1. Модуляцией называется процесс:
a. Суммирования низкочастотного информационного сигнала и высокочастотного несущего колебания;
b. Изменения одного из параметров высокочастотного колебания под воздействием низкочастотного сигнала, отображающего передаваемое сообщение;
c. Перемножения низкочастотного информационного сигнала и высокочастотного несущего колебания;
d. Выделения модуля комплексного сигнала.
2. Амплитудной модуляцией называется процесс изменения амплитуды:
b. Сигнала при изменении его частоты;
c. Сигнала при его прохождении через линейный четырехполюсник;
d. Высокочастотного несущего колебания по закону передаваемого сообщения.
3. Частотной модуляцией называется процесс изменения частоты:
a. Сигнала при изменении его фазы;
4. Фазовой модуляцией называется процесс изменения фазы:
a. Сигнала при изменении его частоты;
b. Сигнала при изменении его амплитуды;
c. Высокочастотного несущего колебания по закону передаваемого сообщения;
d. Сигнала при его прохождении через нелинейный четырехполюсник.
5. Спектр амплитудно-модулированного сигнала состоит из:
a. Частоты несущего колебания и двух боковых полос;
b. Частоты несущего колебания и одной боковой полосы;
c. Частоты несущего колебания и кратных частот;
d. Только из боковых полос.
Случайный процесс (СП) – совокупность (ансамбль) функций времени, подчиняющийся некоторой общей для них статистической закономерности. Бывают непрерывные, дискретные, квантованные и цифровые СП.
Если взять конкретные значения t 1 , то, усреднив их, можно получить математическое ожидание.
F(x) – интегральный закон распределения. Он показывает вероятность того, что произвольно взятое Х будет меньше х .
Плотность распределения величины показывает, какова наибольшая вероятность попадания в заданный интервал.
На практике наиболее значимыми являются следующие параметры СП.
Математическое ожидание – величина, к которой в среднем стремится СП:
Дисперсия характеризует мощность процесса, разброс случайных значений относительно математического ожидания
Среднеквадратическое отклонение характеризует линейный разброс, а не квадратичный, как дисперсия:
Для дискретных сигналов каждое значение возможно с вероятностью р к, но .
Свойства
1. Если х 1 >х 2 , то F(x 1)>F(x 2 ).
2. F (-¥)=0, F (+¥)=1.
3. Если х ® -¥ (х ® +¥), то f(x )®0.
4. –– площадь плотности вероятности всегда равна 1.
Поскольку все информационные сигналы и помехи являются случайными и могут быть предсказаны лишь с некоторой степенью вероятности, то для описания таких сигналов используется теория вероятностей. При этом используются статистические характеристики, которые получают путем проведения многочисленных опытов в одинаковых условиях.
Все случайные явления, изучаемые теорией вероятностей можно разделить на три группы:
— случайные события;
— случайные величины;
— случайные процессы.
Случайное событие
— это всякий факт, который в результате опыта может произойти или не произойти.
Случайным событием является появление помехи на входе приемника или прием сообщения с ошибкой.
Случайные события обозначаются латинскими буквами А, В, С.
Числовыми характеристиками случайного события являются:
1. Частота появления случайного события:
где m — количество опытов, в которых произошло данное событие;
N — общее количество проведенных опытов.
Как следует из выражения (40) частота появления случайного события не может превышать 1, т. к. количество опытов, в которых произошло данное событие не может привысить общее количество проведенных опытов.
2. Вероятность появления случайного события:
Т. е. вероятность появления случайного события есть частота его появления при неограниченном увеличении количества проведенных опытов. Вероятность появления события не может превышать 1. Случайное событие, имеющее вероятность равную единице является достоверным, т. е. оно обязательно произойдет, поэтому такую вероятность имеют уже произошедшие события.
Случайная величина
— это величина, которая от опыта к опыту изменяется случайным образом.
Случайной величиной является амплитуда помехи на входе приемника или количество ошибок в принятом сообщении. Случайные величины обозначаются латинскими буквами X, Y, Z, а их значения — x, y, z.
Случайные величины бывают дискретными и непрерывными.
Дискретной называется случайная величина, которая может принимать конечное множество значений (например, количество оборудования, количество телеграмм и т. д., т. к. они могут принимать только целое число 1, 2, 3, …).
Непрерывной называется случайная величина, которая может принимать любые значения из некоторого диапазона (например, амплитуда помехи на входе приемника может принимать любые значения, точно так же как и любые значения может принимать информационный аналоговый сигнал).
Числовыми, статистическими характеристиками, описывающими случайные величины являются:
1. Функция распределения вероятности
.
F(x)=P(X ? x) (42)
Данная функция показывает вероятность того, что случайная величина Х не превысит конкретно выбранного значения х. Если случайная величина Х является дискретной, то F(x) так же является дискретной функцией, если Х непрерывная величина, то F(x) ? непрерывная функция.
2. Плотность распределения вероятности
.
Р(х)=dF(x)/dx (43)
Данная характеристика показывает вероятность попадания значения случайной величины в малый интервал dx в окрестности точки х’, т. е. в заштрихованную область (рисунок).
3. Математическое ожидание .
где хi — значения случайной величины;
Р(хi) — вероятность появления этих значений;
n — количество возможных значений случайной величины.
где р(х) — плотность вероятности непрерывной случайной величины.
По своему смыслу математическое ожидание показывает среднее и наиболее вероятное значение случайной величины, т. е. это значение наиболее часто принимает случайная величина. Выражение (44) применяется, если случайная величина является дискретной, а выражение (45), если она является непрерывной. Обозначение M[X] является специальным для математического ожидания того случайной величины, которая указана в квадратных скобках, однако иногда используются обозначения mх или m.
4. Дисперсия .
Дисперсия количественно характеризует степень разброса результатов отдельных опытов относительно среднего значения. Обозначение дисперсии случайной величины D[X] является общепринятым, однако может использоваться и обозначение??х. Выражение (46) используется для вычисления дисперсии дискретной случайной величины, а (47) — для вычисления дисперсии непрерывной случайной величины. Если извлечь квадратный корень из дисперсии, то получится величина, называемая среднеквадратическим отклонением (?х).
Все характеристики случайной величины можно показать с помощью рисунка 22.
Рисунок 22 - Характеристики случайной величины
Случайный процесс — это такая функция времени t, значение которой при любом фиксированном значении времени является случайной величиной. Например, на рисунке 23 показана диаграмма некоторого случайного процесса, наблюдаемого в результате проведения трех опытов. Если определить значение функций в фиксированный момент времени t1, то полученные значения окажутся случайными величинами.
Рисунок 23 - Ансамбль реализаций случайного процесса
Таким образом, наблюдение любой случайной величины (Х) во времени, является случайным процессом Х(t). Например, как случайные процессы, рассматриваются информационные сигналы (телефонные, телеграфные, передачи данных, телевизионные) и шумы (узкополосные и широкополосные).
Однократное наблюдение случайного процесса называется реализацией
xk(t). Совокупность всех возможных реализаций одного случайного процесса называется ансамблем реализаций. Например, на рисунке 23 представлен ансамбль реализаций случайного процесса, состоящий из трех реализаций.
Для характеристики случайных процессов используются те же характеристики, что и для случайных величин: функция распределения вероятности, плотность распределения вероятности, математическое ожидание и дисперсия. Данные характеристики рассчитываются аналогично, как и для случайных величин. Случайные процессы бывают различных типов. Однако в электросвязи большинство случайных сигналов и помех относятся к стационарным эргодическим случайным процессам.
Стационарным является случайный процесс, у которого характеристики F(x), P(x), M[X] и D[X] не зависят от времени.
Эргодическим
является процесс, у которого усреднение по времени одной из реализации приводит к тем же результатам, что и статическое усреднение по всем реализациям. Физически это означает, что все реализации эргодического процесса похожи друг на друга, поэтому измерения и расчеты характеристик такого процесса можно проводить по одной (любой) из реализаций.
Кроме четырех характеристик приведенных выше случайные процессы также описываются функцией корреляции и спектральной плотностью мощности.
Функция корреляции характеризует степень взаимосвязи между значениями случайного процесса в различные моменты времени t и t+?. Где? временной сдвиг.
где tн — время наблюдения реализации xk(t).
Спектральная плотность мощности — показывает распределение мощности случайного процесса по частотам.
где?Р — мощность случайного процесса, приходящаяся на полосу частот?f.
Таким образом, наблюдение случайного явления во времени является случайным процессом, его появление является случайным событием, а его значение случайной величиной.
Например, наблюдение телеграфного сигнала на выходе линии связи в течение, какого то времени — это случайный процесс, появление на приеме его дискретного элемента «1» или «0» — случайное событие, а амплитуда этого элемента — случайная величина.
1. Особенности исследования САУ при случайных воздействиях
При детерминированных заранее заданных воздействиях состояние САУ в любой момент t определяется начальным состоянием системы в некоторый момент времени t0 и приложенными к системе воздействиями. Эта задача определяется решением соответствующего дифференциального уравнения
anx (n)+an-1x(n-1)+…+a0x=bmg(m)+bm-1g(m-1)+…+b0g. (26.1)
Если ai, bj - постоянные коэффициенты, а g - определенная функция времени, то решение этого уравнения для заданных начальных условий будет единственным и определенным для всего интервала времени.
Однако в реальных условиях часто внешние воздействия изменяются случайно, т.е. заранее не предвиденным образом. Например:
суточные изменения нагрузки энергосистемы;
порывы ветра, действующие на самолет;
удары волны в гидродинамических системах;
сигналы радиолокационных установок;
шумы в радиотехнических устройствах и т.д.
Случайные воздействия могут прикладываться к системе извне (внешние воздействия) или возникать внутри некоторых ее элементов (внутренние шумы).
Очевидно, если в уравнении (26.1) g - входное воздействие заранее не определено, т.е. является случайной функцией, или параметры системы ai, bj изменяются случайным образом, то получить решение этого уравнения в детерминированном (т.е. определенном) виде невозможно.
Конечно, можно задаться некоторыми максимальными значениями этих параметров и решить поставленную задачу (расчет системы на заданную точность при максимальных значениях случайных воздействий). Но поскольку максимальные значения случайной величины наблюдаются редко, то в этом случае к системе будут предъявлены заведомо более жесткие требования, чем это вызывается реальностью.
Правда, такой подход иногда является единственно возможным(высокоточное производство, иначе – брак). Поэтому в большинстве случаев расчет системы при случайных воздействиях ведут не по максимальному, а по наиболее вероятному значению случайных величин, т.е. по такому значению, которое встречается наиболее часто.
В этом случае получают наиболее рациональное техническое решение (меньший коэффициент усиления системы, меньшие габариты отдельных устройств, меньшее потребление энергии), хотя для маловероятных значений задающего воздействия будет иметь место ухудшение работы системы.
Расчет САУ при случайных воздействиях с помощью специальных статистических методов, которые оперируют статистическими характеристиками случайных воздействий, являющихся не случайными, а детерминированными величинами.
САУ, спроектированная на основе статистических методов, будет обеспечивать соответствующие требования не для одного, детерминированного воздействия, а для целой совокупности этих воздействий, заданных с помощью статистических характеристик (если ошибка САУ носит случайный характер, то точное ее значение в какой-либо момент времени при статистическом расчете получить невозможно).
Статистические методы расчета САУ основаны на расчетах и работах советских ученых: Хинчина А.Я., Колмогорова А.Н., Гнеденко В.В., Солодовникова В.В., Пугачева В.С., Казакова И.Е. и др., а также зарубежных ученых – Н. Винера, Л. Заде, Дж. Рагоцине, Калмана, Бьюси и др.
2. Краткие сведения о случайных процессах.
Случайной функцией называется функция, которая при каждом значении независимой переменной является случайной величиной. Случайные функции, для которых независимой переменной является время t,называют случайными процессами. Так как в САУ процессы протекают во времени, то в дальнейшем будем рассматривать только случайные процессы.
Случайный процесс x(t) не есть определенная кривая, он является множеством определенных кривых x i (t) (i=1,2,…,n), получаемых в результате отдельных опытов (рис.26.1). Каждую кривую этого множества называют реализацией случайного процесса, и сказать, по какой из реализаций пойдет процесс, невозможно.
Рис. 26.1. Графики реализаций и математического ожидания случайного процесса
Для случайного процесса, как и для случайной величины, для определения статистических свойств вводят понятие функции распределения (интегральный закон распределения) F(x, t) и плотности вероятности (дифференциальный закон распределения) w(x, t). Данные характеристики зависят от фиксированного момента времени наблюдения t и от некоторого выбранного уровня x, то есть являются функциями двух переменных - x, и t.
Функции F(x, t) и w(x, t) являются простейшими статистическими характеристиками случайного процесса. Они характеризуют случайный процесс изолированно в отдельных сечениях, не раскрывая связи между сечениями случайного процесса.
К основным характеристикам случайных процессов, наиболее широко используемых при исследовании систем управления, относят: математическое ожидание, дисперсию, среднее значение квадрата случайного процесса, корреляционную функцию, спектральную плотность и другие.
А. Математическое ожидание m x (t) является средним значением случайного процесса x(t) по множеству и определяется
(26.2)
где w 1 (x, t) - одномерная плотность вероятности случайного процесса x(t).
Математическое ожидание случайного процесса x(t) представляет собой некоторую неслучайную функцию времени m x (t), около которой группируются и относительно которой колеблются все реализации данного случайного процесса (рис. 26.1).
Средним значением квадрата случайного процесса называют величину
(26.3)
Часто вводят в рассмотрение центрированный случайный процесс , под которым понимают отклонение случайного процесса X(t) от его среднего значения m x (t), или
(26.4)
Б. Дисперсия. Чтобы учесть степень разбросанности реализаций случайного процесса относительно его среднего значения, вводят понятие дисперсии случайного процесса, которая равна математическому ожиданию квадрата центрированного случайного процесса
(26.5)
Дисперсия случайного процесса является неслучайной функцией времени D x (t) и характеризует разброс случайного процесса Х(t) относительно его математического ожидания m x (t).
На практике широко применяются статистические характеристики, имеющие ту же размерность, что и случайная величина, к которым относятся:
Среднее квадратическое значение случайного процесса
равное значению квадратного корня из среднего значения квадрата случайного процесса;
Среднее квадратичное отклонение случайного процесса
(26.7)
равное значению квадратного корня из дисперсии случайного процесса.
Математическое ожидание и дисперсия являются важными характеристиками случайного процесса, но не дают достаточного представления о внутренних связях случайного процесса, которые оказывают существенное влияние на характер его реализаций в пределах заданного интервала времени.
Одной из статистических характеристик, отражающих особенности внутренних связей случайного процесса, является корреляционная функция.
В. Корреляционной функцией случайного процесса Х(t) называют неслучайную функцию двух аргументов R x (t 1 ,t 2), которая для каждой пары произвольно выбранных значений моментов времени t 1 и t 2 равна математическому ожиданию произведения двух случайных величин -Х(t 1) и Х(t 2), соответствующих сечений случайного процесса:
где w 1 (x 1 , t 1 , x 2 , t 2) двумерная плотность вероятности.
Случайные процессы в зависимости от того, как изменяются их статистические характеристики с течением времени, делят на стационарные и нестационарные. Различают стационарность в узком и широком смысле .
Стационарным в узком смысле называют случайный процесс Х(t), если его n-мерные функции распределения и плотность вероятности при любом n не зависят от положения отсчета времени t.
Стационарным в широком смысле называют случайный процесс X(t), математическое ожидание которого постоянно:
М[Х(t)]= m x =const, (26.9)
а корреляционная функция зависит только от одной переменной - разности аргументов t=t 2 -t 1:
В теории случайных процессов пользуются двумя понятиями средних значений: среднее значение по множеству и среднее значение по времени.
Среднее значение по множеству определяется на основе наблюдения над множеством реализаций случайного процесса в один и тот же момент времени, т.е.
(26.11)
Среднее значение по времени определяется на основе наблюдений за отдельной реализацией случайного x(t) на протяжении достаточно длительного времени Т, т.е.
(26.12)
Из эргодической теоремы вытекает, что для так называемых эргодических стационарных случайных процессов среднее значение по множеству совпадает со средним значением по времени, т.е.
(26.13)
В соответствии с эргодической теоремой для стационарного случайного процесса с математическим ожиданием m 0 x =0 корреляционную функцию можно определить
где x(t) - любая реализация случайного процесса.
Статистические свойства связи двух случайных процессов Х(t) и G(t) можно характеризовать взаимной корреляционной функцией R xg (t 1 ,t 2), которая для каждой пары произвольно выбранных значении аргументов t 1 и t 2 равна
Согласно эргодической теореме вместо (26.15) можно записать
(26.16)
где x(t) и g(t)- любые реализации стационарных случайных процессов Х(t) и G(t).
Если случайные процессы Х(t) и G(t) статистически не связаны друг с другом и имеют равные нулю средние значения, то их взаимная корреляционная функция для всех t равна нулю.
Приведем некоторые свойства корреляционных функций.
1. Начальное значение корреляционной функции равно среднему
значению квадрата случайного процесса:
2. Значение корреляционной функции при любом t не может превышать ее начального значения, то есть
3. Корреляционная функция есть четная функция от t, т.е.
(26.18)
Другой статистической характеристикой, отражающей внутреннюю структуру стационарного случайного процесса Х(t), является спектральная плотность S x (w), которая характеризует распределение энергии случайного сигнала по спектру частот.
Г. Спектральная плотность S x (w) случайного процесса Х(t) определяется как преобразование Фурье корреляционной функции R(t),
(26.19)
Следовательно,
так как спектральная плотность S x (a ) является действительной и четной функцией частоты w.
Соотношения (26.19) и (26.20) позволяют установить некоторые зависимости между структурой случайного процесса Х(t) и видом характеристик R x (t) и S x (w) (рис.26.2).
Ид приведенных графиков следует, что с увеличением скорости изменения реализации Х(t) корреляционная функция R x (t) сужается (обостряется), а спектральная плотность S x (w) расширяется.
- Секреты молодости и красоты екатерины андреевой Рецепт красоты от екатерины андреевой
- Как нарисовать барабаны Как нарисовать барабан карандашом поэтапно
- Щадящая диета для похудения живота: рацион, правила Правила составления рациона
- Что делать с коровой, которая не встает после отела Если подняться не получается